15 research outputs found

    Verificación de firmas en línea usando modelos de mezcla Gaussianas y estrategias de aprendizaje para conjuntos pequeños de muestras

    Get PDF
    RESUMEN: El artículo aborda el problema de entrenamiento de sistemas de verificación de firmas en línea cuando el número de muestras disponibles para el entrenamiento es bajo, debido a que en la mayoría de situaciones reales el número de firmas disponibles por usuario es muy limitado. El artículo evalúa nueve diferentes estrategias de clasificación basadas en modelos de mezclas de Gaussianas (GMM por sus siglas en inglés) y la estrategia conocida como modelo histórico universal (UBM por sus siglas en inglés), la cual está diseñada con el objetivo de trabajar bajo condiciones de menor número de muestras. Las estrategias de aprendizaje de los GMM incluyen el algoritmo convencional de Esperanza y Maximización, y una aproximación Bayesiana basada en aprendizaje variacional. Las firmas son caracterizadas principalmente en términos de velocidades y aceleraciones de los patrones de escritura a mano de los usuarios. Los resultados muestran que cuando se evalúa el sistema en una configuración genuino vs. impostor, el método GMM-UBM es capaz de mantener una precisión por encima del 93%, incluso en casos en los que únicamente se usa para entrenamiento el 20% de las muestras disponibles (equivalente a 5 firmas), mientras que la combinación de un modelo Bayesiano UBM con una Máquina de Soporte Vectorial (SVM por sus siglas en inglés), modelo conocido como GMM-Supervector, logra un 99% de acierto cuando las muestras de entrenamiento exceden las 20. Por otro lado, cuando se simula un ambiente real en el que no están disponibles muestras impostoras y se usa únicamente el 20% de las muestras para el entrenamiento, una vez más la combinación del modelo UBM Bayesiano y una SVM alcanza más del 77% de acierto, manteniendo una tasa de falsa aceptación inferior al 3%.ABSTRACT: This paper addresses the problem of training on-line signature verification systems when the number of training samples is small, facing the real-world scenario when the number of available signatures per user is limited. The paper evaluates nine different classification strategies based on Gaussian Mixture Models (GMM), and the Universal Background Model (UBM) strategy, which are designed to work under small-sample size conditions. The GMM’s learning strategies include the conventional Expectation-Maximisation algorithm and also a Bayesian approach based on variational learning. The signatures are characterised mainly in terms of velocities and accelerations of the users’ handwriting patterns. The results show that for a genuine vs. impostor test, the GMM-UBM method is able to keep the accuracy above 93%, even when only 20% of samples are used for training (5 signatures). Moreover, the combination of a full Bayesian UBM and a Support Vector Machine (SVM) (known as GMM-Supervector) is able to achieve 99% of accuracy when the training samples exceed 20. On the other hand, when simulating a real environment where there are not available impostor signatures, once again the combination of a full Bayesian UBM and a SVM, achieve more than 77% of accuracy and a false acceptance rate lower than 3%, using only 20% of the samples for training

    Inverse phosphatidylcholine/ phosphatidylinositol levels as peripheral biomarkers and phosphatidylcholine/ lysophosphatidylethanolamine- pzhosphatidylserine as hippocampal indicator of postischemic cognitive Impairment in rats

    Get PDF
    ABSTRACT: Vascular dementia is a transversal phenomenon in different kinds of neurodegenerative diseases involving acute and chronic brain alterations. Specifically, the role of phospholipids in the pathogenesis of dementia remains unknown. In the present study, we explored phospholipid profiles a month postischemia in cognitively impaired rats. The two-vessel occlusion (2-VO) model was used to generate brain parenchyma ischemia in adult male rats confirmed by alterations in myelin, endothelium, astrocytes and inflammation mediator. A lipidomic analysis was performed via mass spectrometry in the hippocampus and serum a month postischemia. We found decreases in phospholipids (PLs) associated with neurotransmission, such as phosphatidylcholine (PC 32:0, PC 34:2, PC 36:3, PC 36:4, and PC 42:1), and increases in PLs implied in membrane structure and signaling, such as lysophosphatidylethanolamine (LPE 18:1, 20:3, and 22:6) and phosphatidylserine (PS 38:4, 36:2, and 40:4), in the hippocampus. Complementarily, PC (PC 34:2, PC 34:3, PC 38:5, and PC 36:5) and ether-PC (ePC 34:1, 34:2, 36:2, 38:2, and 38:3) decreased, while Lyso-PC (LPC 18:0, 18:1, 20:4, 20:5, and LPC 22:6) and phosphatidylinositol (PI 36:2, 38:4, 38:5, and 40:5), as neurovascular state sensors, increased in the serum. Taken together, these data suggest inverse PC/LPC-PI levels as peripheral biomarkers and inverse PC/LPE-PS as a central indicator of postischemic cognitive impairment in rats

    Nuevo dispositivo para análisis de voz de pacientes con enfermedad de Parkinson en tiempo real

    Get PDF
    RESUMEN: La enfermedad de Parkinson (EP) es un desorden neurodegenerativo que afecta la coordinación de músculos y extremidades, incluyendo aquellos responsables de la producción del habla, generando alteraciones en la inteligibilidad de la señal de voz. Está demostrado que el ejercicio terapéutico constante puede mejorar las habilidades de comunicación de los pacientes; sin embargo, el diagnóstico acerca del avance en el proceso de recuperación es realizado de forma subjetiva por los fonoaudiólogos o neurólogos. Debido a esto se requiere el desarrollo de herramientas flexibles que valoren y guíen la terapia fonoaudiológica de los pacientes. En este artículo se presenta el diseño e implementación de un sistema embebido para el análisis en tiempo real de la voz de pacientes con EP. Para esto se desarrollan tres plataformas; primero, se construye una interfaz gráfica en Matlab; luego, se crea un primer prototipo basado en un DSP TMS320C6713 de Texas Instruments. La aplicación final es desarrollada sobre un mini-ordenador que cuenta con un códec de audio, capacidad de almacenamiento, y una unidad de procesamiento. El sistema además se complementa con un monitor LCD para desplegar información en tiempo real, y un teclado para la interacción con el usuario. En todas las plataformas se evalúan diferentes medidas usadas comúnmente en la valoración de la voz de pacientes con EP, incluyendo características acústicas y de dinámica no lineal. En concordancia con otros trabajos del estado del arte donde se analiza la voz de personas con EP, la plataforma diseñada muestra un incremento en la variación del pitch en la voz de los pacientes, además de un decremento en el valor del área del espacio vocálico. Este resultado indica que la herramienta diseñada puede ser útil para hacer la evaluación y seguimiento de la terapia fonoaudiológica de pacientes con EP.ABSTRACT: Parkinson’s disease (PD) is a neurodegenerative disorder that affects the coordination of muscles and limbs, including those responsible of the speech production. The lack of control of the limbs and muscles involved in the speech production process can generate intelligibility problems and this situation has a negative impact in the social interaction of the patients. It is already demonstrated that constant speech therapy can improve the communication abilities of the patients; however, the measurement of the recovery progress is done subjectively by speech therapists and neurologists. Due to this, it is required the development of flexible tools able to asses and guide the speech therapy of the patients. In this paper the design and deployment of a new device for the real time assessment of speech signals of people with PD is presented. The processes of design and deployment include the development on three platforms: first, a graphic user interface is developed on Matlab, second the first prototype is implemented on a digital signal processor (DSP) and third, the final device is developed on a mini-computer. The device is equipped with an audio codec, storage capacity and the processing unit. Besides, the system is complemented with a monitor to display the processed information on real time and with a keyboard enabling the interaction of the end-user with the device. Different acoustics and nonlinear dynamics measures which have been used in the state of the art for the assessment of speech of people with PD are implemented on the three mentioned platforms. In accordance with the state of the art, the designed platforms show an increment in the variation of the fundamental period of speech (commonly called pitch) of people with PD. Additionally, the decrease of the vocal space area is validated for the case of patients with PD. These results indicate that the designed device is useful to perform the assessment and monitoring of the speech therapy of people with PD

    Representaciones sociales del autoexamen de mama en mujeres adultas de zonas rurales de Risaralda

    Get PDF
    Esta investigación tiene como objetivo explorar las Representaciones Sociales de un grupo de mujeres de la zona rural de Risaralda, acerca del autoexamen de mama como práctica de autocuidado frente a la detección temprana del cáncer, y entender la dinámica del interaccionismo comunitario en cuanto a los determinantes de las prácticas de esta población. Para el anterior estudio se realizará una investigación de tipo cualitativo exploratorio, durante el segundo semestre de 2019, con mujeres que no han sido diagnosticadas con algún tipo de cáncer

    Caracterización estocástica de dinámicas no lineales para la evaluación automática de calidad de la voz

    No full text
    El diagnóstico y tratamiento clínico de patologías laríngeas es en la actualidad un problema de gran interés para una rama de la investigación relacionada con el tratamiento digital del habla. El objetivo principal de la investigación en este campo consiste en el desarrollo de sistemas de diagnóstico asistido, que posibiliten la evaluación objetiva de un paciente y posteriormente mejoren el diagnóstico y tratamiento clínico que a él se le da. Adicionalmente, este tipo de sistemas ayudan a la detección temprana de enfermedades que, de otra forma, podrían permanecer ocultas durante un tiempo crucial para que su tratamiento sea eficaz. La mayor parte de los estudios que se han llevado a cabo en este campo están basados en métodos lineales de caracterización de la señal de voz. Varias de dichas características han demostrado contener información de gran utilidad para el problema de detección. Sin embargo, diversos estudios han mostrado que en el proceso de producción de voz se presentan diferentes fenómenos físicos con características no lineales, que no pueden ser caracterizados por métodos convencionales basados en técnicas lineales. Esta tesis doctoral está enfocada en el análisis y caracterización de componentes no lineales en señales de voz, a partir de técnicas de embebimiento por retardo de tiempo para la reconstrucción del espacio de estados. Se estudia su empleo como herramienta complementaria para la extracción de información en la detección automática de voces patológicas y en la medición automática de niveles de calidad de voz tomando como referencia la escala de medida GRBAS. El análisis no lineal de señales de voz es particularmente más complejo que el de otro tipo de señales, debido al hecho de que durante el proceso de producción de la voz se presentan inherentemente fenómenos de turbulencia, los cuales adicionan componentes aleatorias a las señales de voz que, por definición, no están consideradas por los métodos convencionales de análisis no lineal. Por lo tanto, en este trabajo se estudian medidas convencionalmente usadas en el análisis de dinámica no lineal, tanto como diversas medidas de complejidad basadas en teoría de la información, que tienen en cuenta no sólo las componentes no lineales, sino también componentes estocásticas presentes en las series de tiempo. De igual manera se proponen tres medidas de complejidad basadas en modelos estocásticos que permiten una mejor caracterización del espacio de estados y proporcionan información complementaria útil para el sistema de detección. El trabajo estudia distintos esquemas de clasificación, tanto para el problema de detección de patologías de voz como para el problema multi-clase de clasificación de una voz dentro de la escala de calidad GRBAS. Adicionalmente, considera el problema de combinación de información a partir de métodos no lineales, con medidas de ruido y cepstrales, estableciendo la relevancia real que tienen las medidas de complejidad para mejorar la capacidad discriminante de los sistemas de detección automática de patologías de voz, y proporciona una metodología basada en técnicas de combinación de clasificadores con resultados que alcanzan un 98.23%±0.001 de acierto en el primer caso y un 63.56% de acierto para la valoración automática de la calidad de la voz de acuerdo con la escala GRBAS. Los estudios realizados muestran que el error de detección de voces patológicas se reduce en un 66.67%, en comparación con los resultados obtenidos empleando únicamente medidas de ruido y parámetros cepstrales; mientras que el error de medición de la escala GRBAS se redujo en un 13.69% realizando una comparación similar a la anterior. Estos resultados superan los mejores resultados encontrados actualmente en el estado del arte / Abstract : Diagnostic and clinical treatment of laryngeal pathologies is currently a problem of great interest for a part of the scientific community related to the digital processing of speech. The main objective in this field of research is the development of computer-aided medical diagnostic tools, enabling an objective assessment of a patient and subsequently improving the diagnosis and clinical treatment given to him/her. Additionally, such systems help to the early detection of diseases that otherwise could remain hidden during a crucial time for a effective treatment. Most of the studies that have been conducted in this field are based on linear methods for characterizing the speech signal. Several of the features extracted from such methods have proved to contain useful information for the detection problem. However, several studies have shown that in the speech production process there are different physical phenomena with nonlinear characteristics, which are not characterized by conventional methods based on linear techniques. This thesis is focused on the analysis and characterization of nonlinear components present in speech signals, using state space reconstruction techniques based on the time delay embedding theorem. Their use have been studied as complementary tools to extract information for the automatic detection and grading of pathological voices, and for the automatic assessment of voices according to the GRBAS quality scale. Nonlinear analysis of voice signals is particularly more complex than using other kind of signals, given that during the voice production process there are inherent turbulent events that add random components to the voice signals which, by definition, are not considered by conventional methods of nonlinear analysis. Therefore, this work examines measures conventionally used for the analysis of nonlinear dynamics, as well as various measures of complexity based on information theory which take into account not only the nonlinear components, but also the stochastic components present in time series. Furthermore, there have been proposed three measures of complexity based on stochastic models that allow a better characterization of the state space and provide useful information for the detection system. Moreover, this work study different classification schemes for both the problem of voice pathology detection and the multi-class classification problem according to the GRBAS quality scale. Additionally, it considers the problem of fusing information from non-linear methods, with noise and cepstral measures, establishing the real capabilities of complexity measures to improve the discrimination of an automatic detection of voice disorders system. Moreover, it provides a methodology fusing classifiers, yielding a 98.23% ± 0.01 of accuracy in the first case and a 63.56% of correct detection for the automatic grading of voice quality according to GRBAS scale. The studies performed showed that the error of the automatic detection pathological voices is reduced a 66.67% in comparison to the error obtained using more classic parameterization approaches based on noise measures and cepstral coefficients. In addition, the error of the voice quality gradings according to the GRBAS scale was reduced a 13.69% comparing to the performance obtained using classic parameterization approaches. These results outperform the best results currently found in the state of the art.Doctorad

    Reduction of training spaces using MCE- based hidden Markov models

    No full text
    Es común en el reconocimiento de patrones que los mayores esfuerzos se realicen en las etapas de medición-extracción de características y de clasificación. En diversos problemas de reconocimiento se encuentra que los parámetros resultantes de la medición de variables presentan una dinámica temporal y que esta dinámica en sí misma, es la que contiene mayor parte de la información discriminante. Las técnicas típicamente utilizadas en la etapa de extracción de características, están diseñadas para variables estáticas, es decir, variables que no presentan ningún tipo de dinámica. Este es el caso de técnicas como PCA y LDA. Surge entonces la necesidad de generar metodologías de extracción de características que tengan en cuenta la información dinámica de las variables. Por otro lado, es conocido que los criterios utilizados en las técnicas de extracción de características difieren del criterio de encontrar mínimo error de clasificación; este hecho genera incompatibilidad entre el criterio utilizado en la etapa de extracción de características y la etapa de clasificación y puede degradar el desempeño del sistema. Se presenta por lo tanto una metodología de diseño simultáneo de una etapa de extracción de características y un clasificador basado en modelos ocultos de Markov - HMM, por medio del algoritmo de mínimo error de clasificación - MCE. La extracción de características es dependiente de los estados del modelo y es optimizada utilizando el mismo criterio de ajuste de parámetros del HMM. La metodología es validada sobre un problema de reconocimiento de patologías de voz. Los resultados muestran que el entrenamiento de HMM por medio del algoritmo MCE mejora el reconocimiento en comparación con el método de entrenamiento clásico por el criterio de máxima verosimilitud. Además, la metodologia propuesta disminuye la similitud entre modelos de clases diferentes y mejora el desempeño del sistema / Abstract: In pattern recognition is often common that the most of the attention is centered in the measure-extraction and classification stages. In several recognition problems, the obtained measures display a time-variant dynamic and this one contains a high level of the discriminant information. The classical techniques for feature extraction are designed for static features. PCA and LDA are examples of this. At this point becomes necessary the development of dynamic feature extraction methodologies. On the other hand, it is well known that the classical features extraction techniques make use of optimization criteria that are different from the classifier’s minimum classification error criterion. This fact may cause inconsistency between feature extraction and the classification stages and consequently, degrade the performance of systems. For all this reasons, a hidden Markov models (HMM) - based methodology for simultaneous desing of extraction and classification stages is presented. Such a methodology is based on the minimum classification error (MCE) algorithm. The feature extraction is model state - dependent and is optimized using the same criterion of parameter estimation of the HMM. Validation is carried out over a automatic detection of pathological voices problem. The result shows that the MCE training improves the accuracy against the classical maximum likelihood training. In addition, the proposed methodology diminished the similarity between models of different classes and improves the performance systems.Maestrí

    Clasificación basada en disimilitudes para modelos estocásticos de espacios de inserción aplicados a la detección de patologías de voz

    No full text
    RESUMEN: En este trabajo se investiga una forma alternativa de modelar el comportamiento no lineal presente en las señales de voz patológicas. El método consiste en modelar atractores reconstruidos mediante la técnica de retardo de tiempo, teniendo en cuenta la información espacial y temporal de las trayectorias en el atractor a partir de modelos ocultos de Markov (HMM) discretos. A partir de modelos HMM entrenados para los espacios embebidos es posible calcular una medida de distancia basada en un kernel probabilístico, que posibilita la construcción de un espacio de disimilitud. Esta aproximación permite la comparación de familias de atractores a partir de la comparación de prototipos en lugar de evaluar características no lineales individuales de cada sujeto. La clasificación del espacio de disimilitud se lleva a cabo usando un clasificador por vecino más cercano y se compara con otro esquema de clasificación que emplea dos características convencionalmente empleadas en análisis no lineal: máximo exponente de Lyapunov y dimensión de correlación. Los resultados muestran que la máxima eficiencia alcanzada con el esquema propuesto es un 18,71% más alta que la máxima exactitud obtenida a partir de clasificación basada en estadísticas no lineales convencionales.ABSTRACT: This paper investigates a new way for modelling the nonlinear behavior present in athological voice signals. The main idea is modelling the timedelay reconstructed attractors, taking into account the spatial and temporal information of the trajectories by means of a discrete Hidden Markov model (HMM). When the attractors are modeled with HMM it is possible to compute a probabilistic kernel-based distance among models to construct a dissimilarity space. This approach enables the possibility of comparing attractor families by their profiles, rather than evaluating individual nonlinear features of each subject. Classification of dissimilarity space is carried out by using a naive 1-nearest neighbors rule and it is compared with another classification scheme that employs two conventional nonlinear statistics: largest Lyapunov exponent and correlation dimension. Results show that the maximum accuracy with the proposed scheme is a 18.71% greater than the maximum accuracy obtained from the classification based on the conventional nonlinear statistics

    ByoVoz Automatic Voice Condition Analysis System for the 2018 FEMH Challenge

    Full text link
    This paper presents the methods and results used by the ByoVoz team for the design of an automatic voice condition analysis system, which was submitted to the 2018 Far East Memorial Hospital voice data challenge. The proposed methodology is based on a cascading scheme that firstly discriminates between pathological and normophonic voices, and then identifies the type of disorder. By using diverse feature selection techniques, a subset of complexity, spectral/cepstral and perturbation characteristics were identified for the proposed tasks. Then, several generative classification methodologies based on Gaussian Mixture Models and Gradient Boosting were employed to provide decisions about the input voices in the binary classification, and using onevs-one classification systems based on Random Forests for the categorization according to the type of disorder. By using a 4-folds cross-validation approach on the training partition a sensitivity=0.93 and specificity=0.74 were obtained. Similarly, an unweighted average recall of 0.63 and an accuracy of 66% was obtained for the identification task. Using the scoring metric proposed in the challenge the final resulting score considering both detection and identification is of 0.77

    Analyse de sentiments dans des articles de presse en espagnol en utilisant des prédicats en tant que caractéristiques

    No full text
    RESUMEN: La predicción automática del modo de proceder de los agentes involucrados en las tendencias sociales o económicas es un desafío preponderante en la actualidad. Sin embargo, es una tarea difícil debido al hecho de que la postura u opinión a menudo se extiende a través de documentos extensos y complejos, como los artículos de noticias. El presente trabajo evalúa los predicados de oraciones como características para determinar automáticamente la postura del escritor en los artículos de noticias. Capturamos la semántica y la postura del texto codificando características como el atributo de oraciones copulativas, el predicado de oraciones transitivas, sintagmas adjetivales y la sección del artículo. Bajo el supuesto de que estas características son lo suficientemente informativas para modelar la semántica del texto, cada secuencia de palabras se desambigua y se le asigna un valor de sentimiento con reglas de ponderación. Se realizaron diferentes experimentos empleando SentiWordNet y ML-Senticon para determinar la opinión de las palabras. Los vectores de características se construyen automáticamente para completar una base de datos que se prueba mediante el uso de dos algoritmos de aprendizaje automático. Se logró una eficiencia del 69 % utilizando una SVM con kernel gaussiano junto con una estrategia de selección de características. Esta puntuación superó la línea de base de la técnica de "bag of words" en un 12 %. Estos resultados son prometedores si tenemos en cuenta que el análisis de sentimientos se hace en documentos muy complejos en español.ABSTRACT: The automatic prediction of the course of action of agents involved in social or economic trends is an imperative challenge nowadays. However, it is a difficult task because stance or opinion is often spread throughout long, complex texts, such as news articles. The current study tests sentence predicates as features to automatically determine the writer’s stance in news articles. We capture the semantics and stance of the text by encoding features such as the attribute of copulative sentences, the predicate of transitive sentences, adjectival phrases, and the section of the article. Under the assumption that these features are informative enough to model the semantics of the text, each word sequence is disambiguated and assigned a sentiment value using weighting rules. Different experiments were run using either SentiWordNet and ML-Senticon to determine words’ sentiment. Feature vectors are automatically built to populate a database that is tested using two machine learning algorithms. An efficiency of 69% was achieved using a SVM with Gaussian kernel along with a feature selection strategy. This score outperformed the bag-of-words baseline in 12%. These results are promising considering that the sentiment analysis is performed on very complex texts written in Spanish.RESUMEN: La predicción automática del modo de proceder de los agentes involucrados en las tendencias sociales o económicas es un desafío preponderante en la actualidad. Sin embargo, es una tarea difícil debido al hecho de que la postura u opinión a menudo se extiende a través de documentos extensos y complejos, como los artículos de noticias. El presente trabajo evalúa los predicados de oraciones como características para determinar automáticamente la postura del escritor en los características como el atributo de oraciones copulativas, el predicado de oraciones transitivas, sintagmas adjetivales y la sección del artículo. Bajo el supuesto de que estas características son lo suficientemente informativas para modelar la semántica del texto, cada secuencia de palabras se desambigua y se le asigna un valor de sentimiento con reglas de ponderación. Se realizaron diferentes experimentos empleando SentiWordNet y ML-Senticon para determinar la opinión de las palabras. Los vectores de características se construyen automáticamente para completar una base de datos que se prueba mediante el uso de dos algoritmos de aprendizaje automático. Se logró una eficiencia del 69 % utilizando una SVM con kernel gaussiano junto con una estrategia de selección de características. Esta puntuación superó la línea de base de la técnica de "bag of words" en un 12 %. Estos resultados son prometedores si tenemos en cuenta que el análisis de sentimientos se hace en documentos muy complejos en español.RÉSUMÉ: La prédiction automatique des façons d’agir des agents impliqués dans les tendances sociales ou économiques est un défi impératif de nos jours. Cependant, cette tâche s´avère difficile étant donné que les avis s’entendent dans des documents longs et complexes, tels que des articles de presse. Le présent travail évalue les prédicats de phrases en tant que caractéristiques pour déterminer systématiquement le point de vue de l’écrivain dans les articles de presse. Il s’agit de capturer la sémantique et la posture du texte en décodant des caractéristiques telles que l'attribut de phrases copulatives, le prédicat de phrases transitives, de syntagmes adjectivaux et la section de l'article. En supposant que ces fonctionnalités soient suffisamment informatives pour modéliser la sémantique du texte, chaque séquence de mots est désambiguïsée et une valeur de sentiment est attribuée à l'aide de règles de pondération. Différentes expériences ont été réalisées à l'aide de SentiWordNet et de ML-Senticon afin de déterminer l’avis des mots. Les vecteurs de fonctionnalités sont construits de façon automatique pour alimenter une base de données testée à l'aide de deux algorithmes d'apprentissage automatique. Une efficacité de 69% a été obtenue avec un SVM à noyau gaussien et une stratégie de sélection des fonctionnalités. Ce score a dépassé la base de référence de la technique «bag of words» dans 12%. Ces résultats sont prometteurs compte tenu du fait que l'analyse des sentiments est effectuée sur des documents très complexes en espagnol

    Biodiversity 2016. Status and Trends of Colombian Continental Biodiversity

    No full text
    This third volume of the annual report on biodiversity in Colombia continues the editorial line that begun in 2014. Using novel analytical and graphic proposals, these reports have the goal of communicating the contents to a broad public, making it available for discussion without sacrificing the quality of information. The challenge of communication continues to be a major part of the institutional project, and the new languages with which we are learning to communicate with society and other institutions are an experiment that we expect to be increasingly gratifying. The report for 2017 is already under construction and it counts on new digital technologies so the power of a colombian vital connection may be entirely expressed. The included content evidences that we are still far away from having a systematic follow-up about most of the topics related to the management of biodiversity and ecosystem services, which is the only way to evaluate the effectiveness of policies and investments made by society. In fact, a limitation that is recognized is that of identifying positive or negative changes that affect different levels of organization of life on this planet; therefore, our global navigation route of the Aichi targets is still to be verified. An additional purpose of this process includes the invitation of all Colombians to contribute in constructing and maintaining basic monitoring indicators for management since it is impossible to identify long-term trends of flora and fauna in the country without the support of institutions, researchers, and citizens. This challenge is immense in a megadiverse country such as Colombia. For this reason, the report will continue to open its pages to experts, and even indigenous peoples or local communities, for them to present their perspectives about environmental change and its effects on biodiversity in a systematic and documented manner. This has the objective of stimulating the commitment of everyone in the management of biodiversity and ecosystem services. The only way of overcoming the risk of extinction is through the active process of social learning in which all sectors assume a part of the complex responsibility in protecting the forms of life of the country, a roughly counted tenth of all creatures on Earth. I thank all the people that contributed in this Report, those who have supported us in the phases of production, and all readers and users, who are the ultimate judges of its utility.Bogotá, D. C
    corecore